BGL, Claude Agent SDK로 200명 직원 대상 데이터 분석 민주화

비개발자도 데이터 분석하는 시대: Claude Agent SDK 실제 사용 사례

  • 호주 금융 회사 BGL, Claude Agent SDK로 모든 직원을 위한 text-to-SQL AI agent 구축
  • Amazon Bedrock AgentCore로 보안 및 확장성 확보, 200명의 직원이 SQL 없이 데이터 분석
  • 핵심 아키텍처: 데이터 기반 분리 + 코드 실행 패턴 + 모듈형 지식 구조

무슨 일이 있었나?

호주 금융 소프트웨어 회사 BGL이 Claude Agent SDK와 Amazon Bedrock AgentCore를 사용하여 전사적 BI (business intelligence) 플랫폼을 구축했다.[AWS ML Blog]

간단히 말해, SQL을 모르는 직원도 자연어로 “이번 달 매출”이라고 말할 수 있다. “추세를 보여줘”라고 물으면 AI가 자동으로 쿼리를 생성하고 차트를 그린다.

BGL은 이미 Claude Code를 매일 사용하고 있었지만, 단순한 코딩 도구가 아니라 복잡한 문제에 대해 추론하고, 코드를 실행하고, 시스템과 자율적으로 상호 작용할 수 있는 능력이 있음을 깨달았다.[AWS ML Blog]

왜 중요한가?

개인적으로 이 사례가 흥미로운 이유는 “AI agent를 프로덕션 환경에 어떻게 배포하는가?”에 대한 실제적인 해답을 보여주기 때문이다.

대부분의 text-to-SQL 데모는 훌륭하게 작동하지만, 실제 업무에 적용하면 문제가 발생한다. 테이블 조인 실수, 에지 케이스 누락, 잘못된 집계. 이를 해결하기 위해 BGL은 데이터베이스와 AI 역할을 분리했다.

기존 Athena + dbt로 잘 정제된 분석 테이블을 만들고, AI agent는 SELECT 쿼리 생성에만 집중한다. 솔직히 이게 핵심이다. 모든 것을 AI에 맡기면 hallucination이 증가한다.

또 다른 주목할 점은 코드 실행 패턴이다. 분석 쿼리는 수천 개의 행, 때로는 수 MB의 데이터를 반환한다. 이 모든 것을 context window에 넣으면 폭발한다. BGL은 AI가 파일 시스템에서 CSV를 처리하기 위해 Python을 직접 실행하도록 허용한다.

앞으로 어떻게 될까?

BGL은 AgentCore Memory 통합을 계획하고 있다. 목표는 사용자 선호도 및 쿼리 패턴을 저장하여 보다 개인화된 응답을 생성하는 것이다.

이 예제가 보여주는 방향은 분명하다. 2026년에는 엔터프라이즈 AI가 “멋진 챗봇”에서 “실제로 작동하는 agent”로 진화하고 있다. Claude Agent SDK + Amazon Bedrock AgentCore의 조합은 그러한 청사진 중 하나이다.

자주 묻는 질문

Q: Claude Agent SDK가 정확히 무엇인가?

A: Anthropic에서 만든 AI agent 개발 도구이다. Claude 모델이 단순히 응답하는 대신 코드를 자율적으로 실행하고, 파일을 조작하고, 시스템과 상호 작용할 수 있도록 한다. 이를 통해 BGL은 text-to-SQL과 Python 데이터 처리를 하나의 agent에서 처리한다.

Q: Amazon Bedrock AgentCore는 왜 필요한가?

A: AI agent가 임의의 Python 코드를 실행하려면 보안 격리가 필수적이다. AgentCore는 세션 간 데이터 또는 자격 증명에 대한 액세스를 차단하는 상태 저장 실행 환경을 제공한다. 프로덕션 배포에 필요한 인프라에 대한 걱정을 줄여준다.

Q: 실제로 효과가 있는가?

A: BGL의 200명의 직원이 이제 데이터 팀의 도움 없이 스스로 분석을 수행한다. 제품 관리자는 가설을 검증하고, 규정 준수 팀은 위험 추세를 식별하고, 고객 성공 팀은 고객 통화 중에 실시간 분석을 수행할 수 있다.


이 기사가 유용했다면 AI Digester를 구독해 주세요.

참고 자료

인텔, GPU 시장 본격 진출: 엔비디아 독점 시대 흔들릴까?

Intel CEO, GPU 시장 진출 공식 발표 — 3가지 핵심 사항

  • CEO Lip-Bu Tan, Cisco AI Summit에서 본격적인 GPU 사업 발표
  • 신규 GPU 최고 설계자 영입 — 데이터 센터용 Crescent Island, 2026년 하반기 샘플링 예정
  • Intel, Nvidia의 독점 시장에 세 번째 플레이어로 도전

무슨 일이 있었나?

Intel CEO Lip-Bu Tan은 2월 3일 샌프란시스코에서 열린 Cisco AI Summit에서 GPU 시장 진출을 공식 발표했다.[TechCrunch] 현재 시장은 Nvidia가 압도적으로 지배하고 있다.

Tan은 새로운 GPU 최고 설계자를 영입했다고 발표했다. 이름을 밝히지는 않았지만, 그를 설득하는 데 상당한 노력이 필요했다고 언급했다.[CNBC]

Intel은 이미 데이터 센터용 GPU인 Crescent Island라는 코드명의 GPU를 준비 중이다. 이는 id=”%EC%99%9C-%EC%A4%91%EC%9A%9C%ED%95%9C%EA%B0%80″>Why is it important?

솔직히 조금 놀랐다. Intel이 GPU 시장에 본격적으로 진출할 것이라고는 생각하지 못했다.

현재 GPU 시장은 Nvidia가 지배하고 있다. AI 학습을 위한 GPU 시장 점유율은 80%를 초과한다. AMD가 MI350으로 도전을 하고 있지만, 여전히 Nvidia의 CUDA 생태계를 극복하기는 어렵다.

Intel의 진출은 시장에 세 번째 선택지를 제공한다. 특히 Crescent Island는 AI 추론 시장을 목표로 한다. 학습이 아닌 추론이다. 이것이 중요하다.

AI 추론 시장은 학습 시장보다 빠르게 성장하고 있기 때문이다. 이는 에이전트 AI 및 실시간 추론에 대한 수요가 폭발적으로 증가하고 있기 때문이다. Intel CTO Sachin Katti도 이 점을 강조했다.[Intel Newsroom]

개인적으로 Intel의 타이밍이 나쁘지 않다고 생각한다. Nvidia GPU 가격이 너무 비싸서 많은 기업들이 대안을 찾고 있다. Intel이 Gaudi로 비용 효율성 전략을 추진하는 것도 이러한 맥락이다.

앞으로 무슨 일이 일어날까?

Crescent Island 샘플링은 2026년 하반기에 시작될 때 실제 성능을 확인할 수 있을 것이다. Intel은 또한 2028년까지 14A 노드 리스크 생산을 계획하고 있다.

하지만 문제가 있다. Tan 스스로 인정했듯이, 메모리는 AI 성장을 저해하는 요소이다. 메모리 병목 현상은 GPU 성능만큼이나 심각하다. 냉각 또한 문제이다. Tan은 공랭식 냉각은 한계에 도달했으며 수랭식 솔루션이 필요하다고 말했다.[Capacity]

Intel이 Nvidia의 아성을 무너뜨릴 수 있을지는 불분명하다. 하지만 적어도 경쟁은 소비자에게 좋은 소식이다.

자주 묻는 질문

Q: Intel의 새로운 GPU는 언제 출시되나?

A: 데이터 센터용 GPU인 Crescent Island는 2026년 하반기에 고객 샘플링이 예정되어 있다. 공식 출시일은 아직 발표되지 않았다. 별도로 소비자용 GPU 라인업인 Arc 시리즈가 있으며, 현재 Xe2 아키텍처 기반 제품이 판매되고 있다.

Q: Nvidia와 비교했을 때 Intel GPU의 강점은 무엇인가?

A: Intel은 가격 경쟁력을 자랑한다. Nvidia H100은 장치당 700와트를 소비하고 비싸지만, Intel Gaudi와 Crescent Island는 성능보다 전력 효율성을 강조한다. 또한 Intel이 통합된 CPU-GPU 솔루션을 제공할 수 있다는 점도 차별화되는 점이다.

Q: 소비자용 게이밍 GPU도 영향을 받나?

A: 직접적인 연관성은 거의 없다. 이번 발표는 데이터 센터 AI 추론 시장을 대상으로 한다. 그러나 Intel Arc 시리즈는 성장하여 게이밍 시장 점유율의 1%를 초과하고 있으며, B580의 12GB VRAM 구성은 가성비 시장에서 주목을 받고 있다.


이 기사가 유용했다면 AI Digester를 구독해 주십시오.

참고 자료

MIT Kitchen Cosmo: AI, 냉장고 속 재료로 레시피를 생성하다

3 key points

  • MIT에서 개발한 AI 레시피 생성 주방 기기 ‘Kitchen Cosmo’
  • 카메라로 재료를 인식하고 프린터로 맞춤형 레시피 출력
  • LLM을 물리적 세계로 확장하는 ‘Large Language Objects’ 개념 제시

What’s going on? Did you wake up?

MIT 건축학과 학생들이 AI 기반 주방 기기 ‘Kitchen Cosmo’를 개발했다.[MIT News] 높이 약 45cm(18인치)인 이 장치는 웹캠으로 재료를 인식하고 다이얼로 사용자 입력을 받으며 내장된 열 전달 장치를 사용한다. 프린터로 레시피를 인쇄한다.

이 프로젝트는 MIT의 Marcelo Coelho 교수가 이끄는 Design Intelligence Lab에서 진행되었다. 건축학과 대학원생 Jacob Payne과 디자인 전공 Ayah Mahmoud가 참여했다.[MIT News]

Why is it important?

솔직히 말해서, 이 프로젝트를 흥미롭게 만드는 것은 기술 자체보다 철학에 더 있다. Coelho 교수는 이것을 ‘Large Language Objects (LLOs)’라고 부른다. LLM을 화면에서 꺼내 물리적 객체로 옮기는 개념이다.

Coelho 교수는 “이 새로운 형태의 지능은 강력하지만 언어 외부의 세계에 대해서는 여전히 무지하다”고 말했다. Kitchen Cosmo는 그 간극을 메운다.

개인적으로 이것은 AI 인터페이스의 미래를 보여준다고 생각한다. 화면을 터치하고 입력하는 대신 물체를 보여주고 다이얼을 돌린다. 특히 요리와 같이 손이 바쁜 상황에서 유용하다.

What will happen in the future?

연구팀은 다음 버전에서 실시간 요리 팁과 여러 사람이 함께하는 기능을 제공할 계획이다. 요리할 때 역할 공유 기능을 추가할 계획도 있다. [MIT News] 학생 Jacob Payne은 “AI는 남은 재료로 무엇을 만들지 고민할 때 창의적인 방법을 찾는 데 도움을 줄 수 있다”고 말했다.

이 연구가 상업적 제품으로 이어질지는 불분명하다. 그러나 LLM을 물리적 인터페이스로 확장하려는 시도는 앞으로 증가할 것이다.

Frequently Asked Questions (FAQ)

Q: Kitchen Cosmo는 어떤 재료를 인식할 수 있나?

A: Vision Language Model을 사용하여 카메라로 캡처한 재료를 인식한다. 과일, 채소, 고기와 같은 일반적인 식재료를 식별하고 집에 있는 기본 양념과 조미료를 고려하여 레시피를 생성할 수 있다. 그러나 구체적인 인식 정확도는 공개되지 않았다.

Q: 레시피 생성에 어떤 요소가 반영되나?

A: 식사 유형, 요리 기술, 사용 가능한 시간, 분위기, 식이 제한 사항 및 인원수를 입력할 수 있다. 풍미 프로필 및 지역 요리 스타일(예: 한국, 이탈리아)을 선택할 수도 있다. 이러한 모든 조건이 결합되어 맞춤형 레시피가 생성된다.

Q: 일반 대중이 구매할 수 있나?

A: 현재 MIT 연구소에서 프로토타입 단계에 있으므로 상용화 계획은 발표되지 않았다. 학술 연구 프로젝트로 시작되었기 때문에 상용화에는 시간이 걸릴 것으로 예상된다. 그러나 유사한 개념의 제품이 다른 회사에서 나올 가능성은 있다.


이 기사가 유용했다면 AI Digester를 구독해 달라.

References

Gemini 3, AI 체스 챔피언: 포커-웨어울프 게임 경기장 확장

Gemini 3가 Game Arena 체스 리더보드 1위를 차지했다

  • Google DeepMind Game Arena에 포커와 웨어울프 추가
  • Gemini 3 Pro와 Flash, 3개 게임 리더보드 석권
  • 히카루 나카무라, 더그 폴크 등 참여 3일간 라이브스트림

무슨 일이 벌어졌나?

Google DeepMind가 AI 벤치마크 플랫폼 Game Arena를 확장했다. 기존 체스에 더해 포커와 웨어울프를 새로 추가했다.[Google Blog] Gemini 3 Pro와 Gemini 3 Flash가 3개 게임 모두에서 1위를 차지하며 리더보드를 석권했다.

포커는 Heads-Up No-Limit Texas Holdem 형식으로 진행됐다. GPT-5.2, Gemini 3, Claude가 90만 핸드를 플레이했다.[Doug Polk] 웨어울프는 자연어만으로 진행되는 최초의 팀 기반 게임으로, 불완전한 정보 속에서 대화를 통한 추론이 필요하다.

왜 중요한가?

체스는 논리적 사고를 테스트한다. 하지만 포커와 웨어울프는 다르다. 포커는 위험 관리와 블러핑을, 웨어울프는 사회적 추론과 설득력을 요구한다.[ChromeUnboxed] AI의 소프트 스킬을 평가하는 새로운 기준이 됐다.

Gemini 3는 Gemini 2.5 대비 체스에서 큰 폭의 성능 향상을 보였다. 세대 간 급격한 능력 향상이 확인됐다.[The Decoder] 전략적 보드 게임에서 Gemini 모델들이 우위를 점하고 있다.

앞으로 어떻게 될까?

2월 2일부터 4일까지 3일간 라이브스트림 토너먼트가 진행됐다. 체스 그랜드마스터 히카루 나카무라와 포커 레전드 리브 보리, 더그 폴크가 공동 진행했다.[Kaggle] 최종 포커 리더보드는 2월 4일 kaggle.com/game-arena에서 공개됐다.

Game Arena는 AI 모델의 다면적 능력을 평가하는 표준 벤치마크로 자리잡을 전망이다. 단순 계산이 아닌 전략, 심리, 협상 능력까지 테스트한다.

자주 묻는 질문 (FAQ)

Q: Game Arena에서 어떤 AI 모델이 참가했나?

A: GPT-5.2, Gemini 3 Pro, Gemini 3 Flash, Claude 등 주요 AI 모델들이 참가했다. Gemini 3 계열이 전 게임에서 1위를 차지했다.

Q: 웨어울프 게임은 어떻게 진행되나?

A: 자연어 대화만으로 진행되는 팀 기반 사회적 추론 게임이다. AI 모델들이 서로 대화하며 마을 사람과 늑대인간을 구분해야 한다.

Q: Game Arena 결과는 어디서 확인할 수 있나?

A: kaggle.com/game-arena에서 전체 리더보드와 게임별 순위를 확인할 수 있다.

Claude Code는 월 20만 원, Goose는 무료: 개발자 비용 혁명

GitHub – block/goose: 코드 제안을 넘어 확장 가능한 오픈 소스 AI 에이전트 – 모든 LLM으로 설치, 실행, 편집 및 테스트 가능
코드 제안을 넘어 확장 가능한 오픈 소스 AI 에이전트 – 모든 LLM으로 설치, 실행, 편집 및 테스트 가능 – block/goose

Claude Code Month 20만원 vs. Goose free: 3가지 주요 차이점

  • Block에서 만든 오픈 소스 AI 코딩 에이전트인 Goose, GitHub 스타 297,000개 돌파
  • Claude Code는 월 구독료 $20~$200 + 사용량 제한, Goose는 완전 무료
  • 로컬에서 실행하여 데이터 프라이버시 보장, 오프라인에서도 작동

무슨 일이 있었나?

Jack Dorsey의 핀테크 회사 Block이 오픈 소스 AI 코딩 에이전트인 Goose를 출시했다. Anthropic의 Claude Code와 거의 동일한 기능을 제공하지만 구독료가 없다.[VentureBeat]

Claude Code는 Pro 플랜의 경우 월 $20부터 시작하고 최대 플랜 요금은 월 $200까지다. 또한 5시간마다 초기화되는 사용량 제한도 있다. [ClaudeLog] 반면 Goose는 Apache 2.0 라이선스로 완전 무료다.

Goose는 현재 GitHub에서 297,000개의 스타, 2,700개의 포크, 374명의 기여자를 보유하고 있다. 최신 버전 v1.22.2는 2026년 2월 2일에 출시되었다.[GitHub]

왜 중요한가?

솔직히 말해서, 이것은 AI 코딩 도구 시장의 판도를 바꿀 수 있는 사건이다. Claude Code가 강력한 것은 사실이지만, 월 $200(약 26만원)는 개인 개발자에게 부담이다.

Goose의 세 가지 핵심 장점이 있다. 첫째, 모델에 구애받지 않는다. Claude, GPT-5, Gemini, 심지어 Llama 및 Qwen과 같은 오픈 소스 모델도 연결할 수 있다.[AIBase] 둘째, 완전히 로컬에서 실행된다. 코드가 클라우드로 나가지 않기 때문에 보안이 중요한 기업 환경에서 사용하기에 좋다. 셋째, 비행기 안에서도 할 수 있다. 오프라인 작업이 가능하다.

개인적으로 MCP (Model Context Protocol) 통합이 가장 인상적이다. 데이터베이스, 검색 엔진, 파일 시스템, 심지어 외부 API까지 연결할 수 있으므로 무한한 확장성을 가지고 있다.

앞으로 어떻게 될까?

앞으로 어떻게 될까?

앞으로 어떻게 될까?

앞으로 어떻게 될까? 재고의 가능성이 있다. 무료 대안이 이 정도 품질이라면 월 $200 구독을 정당화하기 어렵다.

하지만 Goose도 완전히 무료는 아니다. LLM API 비용은 별도다. 그러나 Ollama로 로컬 모델을 실행하면 그것마저 0원이 된다. 개발자들이 얼마나 빨리 전환할지는 두고 봐야 한다.

자주 묻는 질문 (FAQ)

Q: Goose가 Claude Code보다 열등한가? 그렇지 않은가?

A: Goose 자체는 에이전트 프레임워크다. 실제 성능은 어떤 LLM에 연결하느냐에 따라 달라진다. Claude API를 연결하면 Claude Code와 동일한 모델을 사용하는 것이다. 차이점은 구독료 없이 API 요금만 지불하면 된다는 것이다. GPT-5 또는 로컬 모델을 사용하면 완전히 다른 성능 프로필을 갖게 된다.

Q: 설치가 복잡한가?

A: 데스크톱 앱과 CLI의 두 가지 버전이 있다. 데스크톱 앱을 다운로드하여 바로 실행할 수 있다. 완전 무료 로컬 환경을 원한다면 Ollama를 설치하고 호환되는 모델을 다운로드하기만 하면 된다. GitHub README에 자세한 안내가 있다.

Q: 기업 환경에서 사용할 수 있나?

A: Apache 2.0 라이선스에 따라 상업적 사용에 제한이 없다. 로컬 실행이 기본값이므로 민감한 코드가 유출되지 않는다. 그러나 외부 LLM API를 사용하는 경우 공급자의 정책을 준수해야 한다. 보안이 최우선이라면 완전 로컬 모델 조합을 권장한다.


이 기사가 유용했다면 AI Digester를 구독해 주세요.

참고 자료

OpenAI, Sora 피드 철학 공개: “둠스크롤은 허용되지 않는다”

OpenAI, Sora feed philosophy revealed: “We do not allow doomscrolling”

  • Creation first, consumption minimization is the key principle
  • 자연어로 알고리즘을 조정할 수 있는 새로운 컨셉의 추천 시스템
  • 창작 단계부터 안전 장치, 틱톡과 반대 전략

What happened?

OpenAI가 AI 비디오 제작 앱 Sora의 추천 피드 디자인 철학을 공식 발표했다.[OpenAI] 핵심 메시지는 명확하다. “둠스크롤링이 아닌 창작을 위한 플랫폼이다.”

TikTok이 시청 시간 최적화로 논란이 된 반면, OpenAI는 반대 방향을 선택했다. 피드 체류 시간을 최적화하는 대신, 사용자가 자신의 비디오를 만들도록 영감을 받을 가능성이 가장 높은 콘텐츠를 먼저 노출한다. [TechCrunch]

Why is it important?

솔직히 말해서, 이것은 소셜 미디어 역사에서 꽤 중요한 실험이다. 기존 소셜 플랫폼은 광고 수익을 창출하기 위해 체류 시간을 극대화한다. 사용자가 오래 머물수록 돈을 더 많이 벌기 때문이다. 그 결과 중독성 있는 알고리즘과 정신 건강 문제가 발생했다.

OpenAI는 이미 구독 모델(ChatGPT Plus)로 수익을 올리고 있다. 광고에 의존하지 않기 때문에 “사용자를 붙잡아 둘” 필요가 없다. 간단히 말해서, 비즈니스 모델이 다르기 때문에 피드 디자인도 다를 수 있다.

개인적으로 이것이 정말 효과가 있을지 궁금하다. “창작 장려” 피드가 실제로 사용자의 참여를 유지할 수 있을까? 아니면 결국 체류 시간 최적화로 돌아갈까?

4 Principles of Sora Feed

  • Creative Optimization: 소비가 아닌 참여를 유도한다. 목표는 수동적인 스크롤이 아닌 능동적인 창작이다.[Digital Watch]
  • User control: 자연어로 알고리즘을 조정할 수 있다. “오늘 코미디만 보여줘”와 같은 지시가 가능하다.
  • Connection priority: 바이럴 글로벌 콘텐츠보다 팔로우하는 사람과 아는 사람의 콘텐츠를 먼저 노출한다.
  • Safety-freedom balance: 모든 콘텐츠가 Sora 내에서 생성되므로 유해한 콘텐츠는 생성 단계에서 차단된다.

How is it different technically?

OpenAI는 기존 LLM과 다르다. 이 방법을 사용하여 새로운 유형의 추천 알고리즘이 개발되었다. 핵심 차별화 요소는 “자연어 지시”이다. 사용자는 원하는 콘텐츠 유형을 단어로 알고리즘에 직접 설명할 수 있다.[TechCrunch]

Sora는 개인화 신호로 활동(좋아요, 댓글, 리믹스), IP 기반 위치, ChatGPT 사용 내역(끌 수 있음), 작성자 팔로워 수 등을 사용한다. 그러나 안전 신호도 포함되어 유해 콘텐츠 노출이 억제된다.

What will happen in the future?

Sora 앱은 단 48시간 만에 출시되었다. 앱 스토어에서 1위를 차지했다. 첫날 56,000건 다운로드, 둘째 날에는 3배 증가했다.[TechCrunch] 초기 반응은 뜨거웠다.

하지만 문제는 지속 가능성이다. OpenAI도 인정하듯이 이 피드는 “살아있는 시스템”이다. 사용자 피드백에 따라 계속 변경될 것이다. 창작 철학이 실제 사용자 행동과 충돌하면 어떻게 될까? 지켜봐야 한다.

Frequently Asked Questions (FAQ)

Q: Sora Feed는 TikTok과 어떻게 다른가?

A: TikTok은 시청 시간을 최적화하여 사용자를 유지하는 것이 목표다. Sora는 그 반대로 사용자가 자신의 비디오를 만들도록 영감을 받을 가능성이 높은 콘텐츠를 먼저 보여준다. 소비보다 창작에 집중하도록 설계되었다.

Q: 자연어로 알고리즘을 조정한다는 것은 무엇을 의미하는가?

A: 기존 앱은 좋아요 및 시청 시간과 같은 행동 데이터를 기반으로만 추천한다. Sora를 사용하면 사용자가 “오늘 SF 비디오만 보여줘”와 같은 텍스트 지침을 입력할 수 있으며 알고리즘이 그에 따라 조정된다.

Q: 청소년 보호 기능이 있는가?

A: 그렇다. ChatGPT 자녀 보호 기능을 사용하면 피드 개인 설정을 끄거나 지속적인 스크롤을 제한할 수 있다. 청소년 계정은 기본적으로 하루에 만들 수 있는 비디오 수가 제한되며 Cameo(다른 사람을 특징으로 하는 비디오) 기능도 더 엄격한 권한을 갖는다.


이 기사가 유용했다면 AI Digester를 구독해 주세요.

Reference Resources

pi-mono: Claude Code 대안 AI 코딩 에이전트 5.9k stars

pi-mono: 터미널에서 나만의 AI 코딩 에이전트 만들기

  • GitHub Stars: 5.9k
  • Language: TypeScript 96.5%
  • License: MIT

이 프로젝트가 뜨는 이유

한 개발자가 Claude Code가 너무 복잡해졌다고 느꼈다. Mario Zechner는 3년간 LLM 코딩 도구를 실험했고 결국 자신만의 도구를 만들기로 결심했다.[Mario Zechner]

pi-mono는 “필요하지 않으면 만들지 마라”는 철학으로 만들어진 AI 에이전트 툴킷이다. 1000 토큰의 시스템 프롬프트와 4가지 핵심 도구(읽기, 쓰기, 편집, bash)로 시작한다. Claude Code의 수천 토큰 프롬프트에 비해 매우 가볍다. 하나라도 있을까?

  • Integrated LLM API: OpenAI, Anthropic, Google, Azure, Mistral, Groq 등 15개 이상의 제공업체를 하나의 인터페이스에서 사용
  • Coding Agent CLI: 터미널에서 코드를 대화형으로 작성, 테스트 및 디버깅
  • Session Management: 작업을 중단하고 재개하며 브랜치처럼 분기 가능
  • Slack bot: Slack 메시지를 코딩 에이전트에 위임
  • vLLM pod management: GPU pod에서 자체 모델을 배포 및 관리
  • TUI/Web UI library: 자신만의 AI 채팅 인터페이스를 만들 수 있음

Quick Start

# Install
npm install @mariozechner/pi-coding-agent

# run
npx pi

# or build from source
git clone https://github.com/badlogic/pi-mono
cd pi-mono
npm install && npm run build
./pi-test.sh

어디에 사용할 수 있을까?

Claude Code 월 20만 원은 부담스럽고, 터미널 중심적으로 작업한다면 pi가 대안이 될 수 있다. API 비용만 지불하면 되기 때문이다.

자체 호스팅 LLM을 사용하고 싶지만 기존 도구가 잘 지원하지 않는다면 pi가 해답이다. vLLM pod 관리 기능까지 내장되어 있다.

개인적으로 “투명성”이 가장 큰 장점이라고 생각한다. Claude Code는 내부적으로 보이지 않는 서브 에이전트를 실행하여 작업을 수행한다. pi는 모든 모델 상호 작용을 직접 확인할 수 있다.

주의 사항

  • 미니멀리즘이 철학이다. MCP (Model Context Protocol) 지원은 의도적으로 누락됨
  • “YOLO 모드”라고 불리는 전체 액세스가 기본값이다. Claude Code보다 권한 확인이 느슨하므로 주의
  • 문서화가 아직 부족하다. AGENTS.md 파일을 꼼꼼히 읽어볼 것

Similar projects

Aider: 역시 오픈 소스 터미널 코딩 도구이다. 모델에 구애받지 않는다는 점에서 유사하지만 pi는 더 넓은 범위(UI library, pod management 등)를 다룬다. [AIMultiple]

Claude Code: 더 많은 기능이 있지만 월간 구독이 필요하고 사용자 정의에 제한이 있다. pi는 TypeScript 확장을 통해 자유롭게 기능을 추가할 수 있다.[Northflank]

Cursor: IDE에 통합된 AI 형태이다. 터미널보다 GUI를 선호한다면 Cursor가 더 낫다.

Frequently Asked Questions (FAQ)

Q: 무료로 사용할 수 있나?

A: pi는 MIT 라이선스에 따라 완전 무료이다. 그러나 OpenAI 또는 Anthropic과 같은 외부 LLM API를 사용하는 경우 해당 비용이 발생한다. Ollama 또는 자체 호스팅 vLLM을 로컬에서 사용하는 경우 API 비용 없이 사용할 수 있다.

Q: Claude Code 대신 사용할 만큼 성능이 좋은가?

A: Terminal-Bench 2.0 벤치마크에서 Claude Opus 4.5를 사용한 pi는 Codex, Cursor 및 Windsurf와 경쟁력 있는 결과를 보여주었다. 미니멀리즘 접근 방식이 성능 저하를 일으키지 않는다는 것을 입증했다.

Q: 한국어 지원이 되나?

A: UI는 영어이지만 연결하는 LLM이 한국어를 지원하는 경우 한국어로 소통하고 코딩할 수 있다. Claude 또는 GPT-4를 연결하여 한국어 프롬프트로 코드를 작성할 수 있다.


이 기사가 유용했다면 AI Digester를 구독해 주세요.

References

Text→Image AI 학습, 이를 통해 FID가 30% 감소할 것이다.

Core Line 3: 200K step secret, Muon optimizer, token routing

  • REPA sort는 초기 가속기일 뿐이며 200K steps 이후에는 제거해야 함
  • Muon optimizer 하나로 FID 18.2 → 15.55 달성 (15% 향상)
  • 1024×1024 고해상도에서 TREAD token routing은 FID 14.10까지 감소

What happened?

Photoroom 팀이 text-to-image generation model PRX Part 2 최적화 가이드를 공개함. [Hugging Face] Part 1이 아키텍처에 대한 내용이었다면, 이번에는 실제 학습 시 무엇을 해야 하는지에 대한 구체적인 ablation 결과를 쏟아냈음.

솔직히 이런 종류의 기술 문서는 대부분 “우리 모델이 최고다”로 끝나지만, 이건 다름. 실패한 실험도 공개하고, 각 기술의 trade-off를 수치로 보여줌.

Why is it important?

text-image model을 처음부터 학습하는 데 드는 비용은 엄청남. 단 하나의 잘못된 설정으로도 수천 GPU 시간을 낭비할 수 있음. Photoroom에서 공개한 데이터는 이러한 시행착오를 줄여줌.

개인적으로 가장 주목할 만한 발견은 REPA (Representation Alignment)에 관한 것임. REPA-DINOv3를 사용하면 FID가 18.2에서 14.64로 떨어짐. 하지만 문제가 있음. throughput이 13% 감소하고, 200K steps 이후에는 학습이 실제로 저해됨. 간단히 말해서, 초기 부스터일 뿐임.

BF16 weight storage의 또 다른 버그. 이걸 모르고 FP32 대신 BF16으로 저장하면 FID가 18.2에서 21.87로 급증함. 3.67이나 올라감. 놀랍게도 많은 팀이 이 함정에 빠짐.

Practical Guide: Strategies by Resolution

Technique 256×256 FID 1024×1024 FID Throughput
Baseline 18.20 3.95 b/s
REPA-E-VAE 12.08 3.39 b/s
TREAD 21.61 ↑ 14.10 ↓ 1.64 b/s
Muon Optimizer 15.55

256×256에서는 TREAD가 실제로 품질을 저하시킴. 하지만 1024×1024에서는 완전히 다른 결과가 얻어짐. 해상도가 높을수록 token routing 효과가 더 큼.

What will happen in the future?

Photoroom은 Part 3에서 전체 학습 코드를 제공함. 이를 공개하고 24시간 “speed run”을 진행할 계획임. 좋은 모델을 얼마나 빨리 만들 수 있는지 보여주는 것이 목표임.

개인적으로 이 공개가 오픈 소스 이미지 생성 모델 생태계에 큰 영향을 미칠 것이라고 생각함. Stable Diffusion 이후 이렇게 자세하게 학습 노하우가 공개된 것은 처음임.

Frequently Asked Questions (FAQ)

Q: REPA는 언제 제거해야 하는가? One?

A: 약 200K steps 이후. 처음에는 학습을 가속화하지만, 그 이후에는 실제로 수렴을 방해함. 이는 Photoroom 실험에서 명확하게 밝혀짐. 시기를 놓치면 최종 모델의 품질이 저하됨.

Q: synthetic data 또는 real images 중 무엇을 사용해야 하는가?

A: 둘 다 사용. 처음에는 synthetic images를 사용하여 global structure를 학습하고, 후반 단계에서는 real images를 사용하여 high-frequency details를 캡처함. compositing만 사용하면 FID가 좋더라도 사진처럼 보이지 않음.

Q: Muon optimizer가 AdamW보다 얼마나 더 나은가?

A: FID 기준으로 약 15% 향상됨. 18.2에서 15.55로 떨어짐. computational cost가 비슷하므로 사용하지 않을 이유가 없음. 하지만 hyperparameter tuning이 약간 까다로움.


이 기사가 유용했다면 AI Digester를 구독해주길 바람.

References

DeepSeek의 1년: 113,000개의 Qwen 파생 모델, Llama의 4배

Deep chic Moment 1년, 숫자로 증명된 3가지 변화

  • Qwen 파생 모델 113,000개 초과 — Meta Llama (27,000개)의 4배
  • DeepSeek, Hugging Face 팔로워 수 1위, Qwen 4위
  • 중국 AI 조직, “오픈 소스는 전략”으로 방향 전환

무슨 일이 있었나?

Hugging Face가 ‘Deep Chic Moment’ 1주년 분석 보고서를 발표했다.[Hugging Face] 이는 2025년 1월 DeepSeek 등장 이후 중국의 오픈 소스 AI 생태계가 어떻게 성장했는지 데이터를 정리한 3부작 시리즈의 마지막 부분이다.

핵심 수치부터 살펴보자. Qwen (Alibaba) 기반 파생 모델 수는 2025년 중반 기준으로 113,000개를 초과했다. Qwen 태그가 붙은 저장소를 포함하면 20만 개가 넘는다.[Hugging Face] 이는 Meta의 Llama (27,000개) 또는 DeepSeek (6,000개)에 비해 압도적인 수치다.

왜 중요한가?

솔직히 말해서, 1년 전만 해도 많은 사람들이 중국 AI를 ‘copycat’으로 여겼다. 하지만 지금은 다르다.

ByteDance, Deepseek, Tencent, 그리고 Qwen은 Hugging Face의 인기 논문 순위에서 상위권을 차지하고 있다. 팔로워 수 측면에서는 DeepSeek가 1위, Qwen이 4위를 기록하고 있다. Alibaba 전체를 보면 파생 모델 수는 Google과 Meta를 합친 것과 맞먹는다.[Hugging Face]

개인적으로 주목하는 것은 Alibaba의 전략이다. Qwen은 단일 플래그십 모델이 아닌 ‘family’로 구성되었다. 다양한 크기, 작업, modality를 지원한다. 간단히 말해서, “우리 모델을 범용 AI 인프라로 사용하라”는 것이다.

앞으로 어떻게 될까?

Hugging Face는 “오픈 소스는 중국 AI 조직의 단기적인 지배 전략”이라고 분석했다. 모델뿐만 아니라 논문과 배포 인프라까지 공유하여 대규모 통합 및 배포를 목표로 한다는 해석이다.

Deepseek moment가 일회성 이벤트가 아니었음이 불과 1년 만에 숫자를 통해 확인되었다. 글로벌 AI 오픈 소스 생태계의 무게 중심이 이동하고 있다.

자주 묻는 질문 (FAQ)

Q: Qwen 파생 모델이 Llama보다 많은가? 이유는?

A: Alibaba가 다양한 크기와 modality로 Qwen을 출시하면서 적용 범위가 확대되었다. 특히 중국 개발자들은 현지 배포를 위해 자주 사용한다. Hugging Face와 모델 범위를 지속적으로 업데이트하는 전략도 효과적이었다.

Q: DeepSeek는 여전히 중요한가?

A: 그렇다. Hugging Face에서 가장 많은 팔로워를 보유한 조직은 DeepSeek이다. 그러나 파생 모델 수에서는 Qwen에 뒤쳐진다. DeepSeek는 논문 및 연구 기여에 강점을 가지고 있으며, Qwen은 생태계 확장에 집중하고 있다.

Q: 한국 개발자에게는 어떤 의미인가?

A: Qwen 기반 모델은 한국어 지원을 강화하고 있다. 오픈 소스이기 때문에 현지 배포 및 fine tuning이 무료이다. 비용 부담 없이 실험할 수 있는 좋은 환경이 되었다. 다만, 라이선스 조건은 모델별로 다르므로 확인해야 한다.


이 기사가 유용했다면 AI Digester를 구독해 달라.

참고 자료

Claude를 만들기 위해 수백만 권의 책을 잘랐다: Anthropic Project Panama의 진실

15억 달러 합의, 수백만 권 파기: 주요 내용

  • Anthropic, 수백만 권의 Claude 학습용 도서를 구매 후 폐기, 스캔 후 파기
  • 내부 문서: “Project Panama는 전 세계 도서를 파괴적으로 스캔하려는 시도”
  • 15억 달러 합의, 저자에게 책 한 권당 약 3,000달러 지급

무슨 일이 있었나?

Anthropic의 비밀 프로젝트가 4,000페이지 이상의 법원 문서 공개로 드러남. 코드명은 “Project Panama”. 내부 계획 문서에는 “Project Panama는 전 세계 도서를 파괴적으로 스캔하려는 우리의 노력”이라고 명시됨. Better World Books 및 World of Books와 같은 중고 서점에서 수만 권의 책을 대량으로 구매. “유압 절단기”로 책등을 깔끔하게 자름. 고속, 고품질 스캐너로 페이지 스캔. 그리고 재활용 회사가 남은 잔해를 수거함.[Techmeme]

이 프로젝트는 Tom Turvey가 이끌었음. 그는 20년 전 Google Books 프로젝트를 만든 전 Google 임원임. 약 1년 동안 Anthropic은 수백만 권의 책을 확보하고 스캔하는 데 수천만 달러를 투자함.[Futurism]

왜 중요한가?

솔직히, 이는 AI 학습 데이터 확보의 실제 모습을 보여줌.

Anthropic은 왜 이 접근 방식을 선택했을까? 첫째, 불법 다운로드 위험을 피하기 위해. 둘째, 중고 서적을 구매하고 원하는 대로 폐기하는 것이 “최초 판매 원칙”에 따라 합법적일 가능성이 높았음. 실제로 판사는 이 스캔 방법 자체를 공정 사용으로 인정했음.[CNBC]

그러나 문제가 있었음. Project Panama 이전 Anthropic은 Library Genesis 및 Pirate Library Mirror와 같은 불법 사이트에서 700만 권 이상의 책을 무료로 다운로드했음. 판사는 이 부분이 저작권 침해에 해당할 수 있다고 판결함.[NPR]

개인적으로 이것이 핵심이라고 생각함. 문제는 “합법적인” 책을 파기하기 위해 스캔하기보다는 불법적으로 먼저 다운로드했다는 점임. Anthropic 자체도 인지하고 있었음. 내부 문서에는 “이 작업이 알려지는 것을 원하지 않는다”고 명시되어 있음. 효과가 있을까?

15억 달러 합의는 AI 저작권 분쟁 역사상 최대 규모임. 추정되는 50만 권의 책에 대해 책 한 권당 약 3,000달러가 저자에게 돌아감.[PBS]

AI는 다른 선례를 가짐. 회사에 미치는 영향은 상당함. OpenAI, Google 및 Meta도 유사한 소송에 직면해 있음. “책을 사서 스캔하는 것은 괜찮지만 불법 다운로드는 허용되지 않는다”는 기준이 명확해졌음.

Anthropic은 이미 음악 저작권 소송에 휘말려 있음. 별도의 소송은 1월에 제기되었으며, 음악 출판사는 Claude 4.5가 저작권이 있는 작품을 “암기”하도록 교육받았다고 주장함. Watchdog]

자주 묻는 질문

Q: Project Panama에서 실제로 사용할 수 있는 책은 몇 권인가? 파기되었나?

A: 법원 문서에 따르면 최대 2백만 권의 책이 “파괴적 스캔” 대상이었음. Anthropic은 Better World Books 및 World of Books와 같은 중고 서점에서 수만 권의 책을 구매했으며, 약 1년 동안 수천만 달러를 투자하여 수백만 권의 책을 처리한 것으로 추정됨.

Q: 저자는 얼마를 받게 되나?

A: 15억 달러 합의는 약 50만 권의 책에 적용됨. 책 한 권당 약 3,000달러임. 불법적으로 다운로드한 책의 저자가 청구 대상이며, 합의가 법원에서 승인되면 개별적으로 청구할 수 있음. 그러나 모든 저자가 청구하지 않으면 실제로 받는 금액이 늘어날 수 있음.

Q: 책을 사서 스캔하는 것은 합법인가?

A: 판사는 이 방법을 공정 사용으로 인정했음. 이는 “최초 판매 원칙”에 따라 구매한 책은 원하는 대로 처분할 수 있기 때문임. 그러나 Anthropic의 문제는 Project Panama 이전에 불법 사이트에서 책을 다운로드했다는 점임. 합법적으로 구매한 책의 스캔은 현재 합법임.


이 기사가 유용했다면 AI Digester를 구독해주십시오.

참고 자료